1
Le dilemme du contexte : pourquoi la récupération exige une transformation
AI025Lesson 2: Data Transformation
00:00

Le Dilemme du contexte découle d'un déséquilibre architectural fondamental : les données humaines sont monolithiques et non structurées, tandis que les grands modèles linguistiques (LLM) sont limités en jetons et basés sur l'attention. Sans transformation, alimenter un LLM avec des données brutes entraîne une « intoxication contextuelle », où le bruit sans pertinence dégrade les performances de raisonnement.

Données brutesMoteur de transformationRappelLatenceGouvernance | Qualité | ActualitéUnités de récupération

Le pont stratégique

La transformation n'est pas simplement une division technique ; c'est un choix stratégique. Le découpage n'est pas simplement une séparation de texte. C'est choisir l'unité sur laquelle la récupération effectuera sa recherche et que la génération consommera ultérieurement. Cela signifie que le découpage affecte simultanément le rappel, le classement, la latence, la qualité des réponses, le budget en jetons et la lisibilité des citations.

  • Compression sémantique : Nous condensons le chaos élevé dimensionnel des données brutes en une architecture optimisée pour la fenêtre limitée du LLM, garantissant que l'« aiguille dans la botte de foin » soit accessible.
  • Triade opérationnelle : Une transformation réussie équilibre la gouvernance des données (autorisation), la qualité du modèle (filtrage du bruit), et le contrôle de l'actualité (gestion des versions).